1
Más allá del corte de conocimiento: por qué los modelos de lenguaje necesitan datos externos
AI011Lesson 6
00:00

Más allá del corte de conocimiento

Los modelos de lenguaje grandes son poderosos, pero sufren una limitación fundamental: el corte de conocimiento. Para construir sistemas de IA confiables, debemos cerrar la brecha entre los datos de entrenamiento estáticos y la información dinámica del mundo real.

1. El problema del corte de conocimiento (¿Qué?)

Los modelos de lenguaje se entrenan con conjuntos de datos masivos, pero estáticos, con una fecha final fija (por ejemplo, el límite de septiembre de 2021 para GPT-4). En consecuencia, los modelos no pueden responder preguntas sobre eventos recientes, actualizaciones de software o datos privados creados después de su periodo de entrenamiento.

2. Alucinaciones frente a la realidad (¿Por qué?)

Cuando se les pregunta sobre datos desconocidos o posteriores al corte, los modelos a menudo alucinan—crean hechos plausibles pero completamente falsos para satisfacer la solicitud. La solución es enraizar: proporcionar un contexto verificable en tiempo real desde una base de conocimiento externa antes de que el modelo genere una respuesta.

3. RAG frente al ajuste fino (¿Cómo?)

  • Ajuste fino: Actualizar los pesos internos del modelo es computacionalmente costoso, lento y produce conocimiento estático que rápidamente se vuelve obsoleto nuevamente.
  • RAG (Generación aumentada por recuperación): Altamente rentable. Recupera información relevante en tiempo real e inserta en el prompt, asegurando que los datos estén actualizados y permitiendo actualizaciones fáciles de la base de conocimiento sin reentrenamiento.
La brecha de datos privados
Los modelos de lenguaje carecen de acceso a manuales internos de la empresa, informes financieros o documentos confidenciales, a menos que se integren explícitamente mediante una canalización de recuperación.
grounding_check.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why is Retrieval Augmented Generation (RAG) preferred over fine-tuning for updating an LLM's knowledge of daily news?
Fine-tuning prevents hallucinations entirely.
RAG is more cost-effective and provides up-to-date, verifiable context.
RAG permanently alters the model's internal weights.
Fine-tuning is faster to execute on a daily basis.
Question 2
What term describes an LLM's tendency to invent facts when it lacks information?
Grounding
Embedding
Hallucination
Tokenization
Challenge: Building a Support Bot
Apply RAG concepts to a real-world scenario.
You are building a support bot for a new product released today. The LLM you are using was trained two years ago.
Product Manual
Task 1
Identify the first step in the RAG pipeline to get the product manual into the system so the LLM can search it.
Solution:
Preprocessing (Cleaning and chunking the manual text into smaller, searchable segments before embedding).
Task 2
Define a "System Message" that forces the LLM to only use the provided documents and prevents hallucination.
Solution:
"Answer only using the provided context. If the answer is not in the context, state that you do not know."